Una investigación independiente muestra que el algoritmo de X (Twitter) puede influir en la polarización política
Un equipo de Estados Unidos ha ideado un método que permite, mediante una extensión en el navegador, alterar el algoritmo de X (antes Twitter) para estudiar su repercusión en el comportamiento de los usuarios. En un experimento de 10 días con 1.256 voluntarios durante la campaña presidencial estadounidense de 2024, usaron el método para variar el contenido que expresa actitudes antidemocráticas y hostilidad partidista. Según los autores, los resultados —que se publican en Science— proporcionan evidencia causal de que una mayor o menor exposición a este tipo de contenido altera en el mismo sentido la polarización. Sus conclusiones contradicen una investigación anterior publicada en la misma revista y que no encontraba dicha relación en las redes Facebook o Instagram. En ese caso, el estudio se hizo en colaboración y con financiación de la empresa Meta.
251127 polarización daniel ES
Daniel Gayo Avello
Profesor titular de la Universidad de Oviedo en el área “Lenguajes y Sistemas Informáticos”
El trabajo me parece excelente y presenta una innovación metodológica tremendamente astuta para estudiar los efectos de la curación [selección] algorítmica en medios sociales sin la cooperación (ni el beneplácito) de las propias plataformas. Dicha innovación (usar un plugin en el navegador para realizar el reranking en el cliente) les permite superar un reto que hasta ahora se antojaba inabordable: modificar el feed que consumen los usuarios de un medio social. Este enfoque les permitió alterar en tiempo real el contenido que veían los sujetos de experimentación y obtener además feedback de estos. Solo por eso, por abrir la puerta a futuras investigaciones independientes sin cooperación por parte de las plataformas de medios sociales, ya sería un trabajo muy relevante.
Por otro lado, el diseño experimental fue riguroso al estar prerregistrado y realizarse en un contexto real, es decir, con usuarios reales durante una campaña electoral. El tamaño de la muestra también fue considerable y se tomaron medidas adecuadas para garantizar que los participantes eran efectivamente ciudadanos de EEUU susceptibles de votar en esas elecciones. Esta combinación de innovación metodológica, robustez experimental y transparencia en el desarrollo de la investigación hace que el trabajo resulte creíble y una contribución sólida.
El trabajo aborda directamente la evidencia disponible, al integrarse dentro de la literatura existente, entre la que destacan los estudios de Bakshy, Messing y Adamic (2015), Bail et al. (2018) o Altay, Hoes y Wojcieszak (2025). Sin embargo, el mayor interés de este artículo es el modo en que desafía frontalmente los resultados del estudio realizado por un amplio equipo de investigadores en colaboración con Meta para analizar el impacto de Facebook e Instagram en las elecciones (Guess et al., 2023). Mientras que Guess et al. sostuvieron que cambiar el feed (ordenación cronológica vs. curación algorítmica) no tenía un impacto significativo en la polarización de los usuarios, el nuevo trabajo muestra que las decisiones algorítmicas sí tienen un impacto sustancial cuando se reduce (o aumenta) de forma significativa la presencia de contenido que promueve actitudes antidemocráticas o animosidad frente a los adversarios. Es más, el nuevo estudio muestra una relación de causalidad clara, de modo que al alterar la exposición a ese tipo de contenidos también se alteran las emociones y percepciones respecto al grupo político opuesto.
Las implicaciones son claras:
- Parece contradecir los resultados de un trabajo que contó con el beneplácito de la plataforma investigada.
- Su metodología abre la puerta a auditorías externas y experimentos replicables, no solo por parte de investigadores sino también de periodistas o administraciones públicas.
- Establece claramente una relación de causalidad y cuantifica la magnitud del efecto.
- Al vincular los contenidos problemáticos con un mayor engagement, señala un poderoso incentivo para que las plataformas no deseen mitigar la polarización.
- Estudios futuros realizados con metodologías semejantes podrían favorecer el establecimiento de políticas regulatorias orientadas a diseñar algoritmos que no solo optimicen dicho engagement, sino que también minimicen impactos indeseables en la sociedad.
Por supuesto, el estudio presenta varias limitaciones importantes que deben tenerse en cuenta. En primer lugar, su alcance está restringido a un contexto muy particular: usuarios de X/Twitter durante un periodo electoral altamente polarizado en EEUU y a lo largo de un intervalo bastante breve. Esto plantea dudas sobre la generalización de los resultados a otras plataformas, momentos o contextos culturales y políticos distintos. Además, la necesidad de instalar un plugin en el navegador introduce posibles sesgos, ya que solo participaron usuarios que consumían X/Twitter vía web (no mediante la aplicación) y que, además, estaban dispuestos a alterar su experiencia de usuario, lo que podría no reflejar a la población general.
Por último, aunque los efectos detectados son significativos, no está clara la duración de dichos efectos ni su impacto real sobre el voto u otras formas de participación ciudadana. Esto no invalida el estudio; simplemente implica que son necesarias investigaciones futuras en más plataformas, distintos contextos y países, así como estudios longitudinales que midan también el impacto en otras métricas, como confianza institucional, participación o calidad del discurso democrático, para lo cual serían precisos equipos multidisciplinares.
251127 polarización walter ES
Walter Quattrociocchi
Director del Laboratorio de Datos y Complejidad para la Sociedad de la Universidad de Roma La Sapienza (Italia)
Este es un estudio sólido y oportuno. Los autores logran algo que hasta ahora había sido casi inalcanzable: realizan un experimento de campo real con el algoritmo de clasificación de X sin necesidad de permiso de la plataforma. Y el resultado es sorprendentemente limpio. Cuando el feed amplifica contenido político hostil y emocionalmente agresivo, las personas se vuelven más frías hacia el bando contrario; cuando ese contenido se reprime, se animan. Un cambio de dos grados en el ‘termómetro de sentimientos’ puede parecer pequeño, pero en la investigación sobre polarización es significativo: equivale aproximadamente a tres años de cambio natural.
Lo que importa aquí no es la idea genérica de que "los algoritmos nos polarizan". La evidencia es más precisa. Es la amplificación sistemática de una categoría específica de contenido —políticamente hostil, antidemocrático, con carga emocional— lo que impulsa a los usuarios hacia una mayor polarización afectiva. Esto coincide perfectamente con lo que observamos hace años en el Efecto Cámara de Eco en las Redes Sociales, donde los patrones de interacción y la dinámica del contenido refuerzan la distancia emocional más que el propio desacuerdo ideológico. En este sentido, el nuevo estudio ayuda a reconciliar la evidencia contradictoria de experimentos previos a gran escala: las intervenciones que simplemente ajustan la exposición ideológica suelen tener poco efecto, mientras que las intervenciones que se centran en la animosidad tienen un impacto medible.
Naturalmente, es necesario ser cauteloso. El experimento se lleva a cabo en la fase más acalorada de las elecciones estadounidenses de 2024, entre usuarios con feeds ya repletos de material político, y los efectos se miden a corto plazo. Estas condiciones amplifican la sensibilidad emocional, por lo que no se debe generalizar excesivamente la magnitud del impacto. Sin embargo, el mecanismo causal es convincente: al seleccionar qué emociones se amplifican, la capa de clasificación moldea cómo se sienten los ciudadanos respecto al bando contrario.
Y esto plantea una cuestión más amplia. Cuando los entornos en línea se optimizan para la atención en lugar de la comprensión, transforman la familiaridad, la fluidez y la resonancia emocional en un sustituto del conocimiento. Este es precisamente el fenómeno que mis colegas y yo llamamos ‘epistemia’: la transición de la información que se evalúa a la información que simplemente parece verdadera porque el sistema la refuerza. En este sentido, estudios como este son cruciales: demuestran que la arquitectura del feed no solo determina lo que vemos, sino también lo que acabamos creyendo saber.
Comparto aquí nuestro reciente artículo en la revista PNAS, que introduce el concepto de epistemia —cuando los sistemas pasan del filtrado a la generación de información, la plausibilidad lingüística puede prevalecer sobre los procesos de verificación— que sitúa este problema dentro de una transformación más amplia del ecosistema de información en línea.
- Artículo de investigación
- Revisado por pares
- Estudio experimental
- Humanos
Piccardi et al.
- Artículo de investigación
- Revisado por pares
- Estudio experimental
- Humanos